注:回归子也可以被叫做被解释变量
从误差项的协方差矩阵来看,异方差和自相关其实不能算是两件事。满足经典线性回归假设条件的误差项,其协方差矩阵是一个单位阵乘以$\sigma^2$,如果以矩阵形式考虑广义最小二乘法问题会直观很多,对数据$X$和$Y$左乘协方差矩阵的1/2次幂(尚有疑点),可以使得变换后的数据满足OLS估计的条件。异方差和自相关条件下,OLS估计仍然是无偏和一致的,通常可以利用Newey-West标准误一起解决掉。
德宾-沃森d检验
德宾沃森d统计量定义如下:
检验的基本假定:
- 回归必须含有截距项
- 解释变量$X$是非随机的
- 干扰项$u_t$是一阶自回归过程产生的
- 干扰项$u_t$服从正态分布
- 回归模型不含有回归子的滞后值
- 没有数据缺失
由一阶自回归相关系数的定义:
立马有$d \approx 2(1-\hat{\rho}) $
在一阶自回归模型中,可以证明,回归系数$rho$和相关系数非常接近,因此采用符号$rho$。
为什么德宾-沃森d检验只适用于一阶自相关?这是因为回归模型包含回归子的滞后值时,d值通常为2左右,从而表明这种模型不存在一阶自相关。德宾曾经提出所谓的h检验来检验序列的高阶自相关,但从统计学意义上看,这一检验不如BG检验。
BG检(布罗施-戈弗雷)检验
这种检验允许:
- 非随机回归元,如回归子的滞后值
- 高阶自相关自回归模式
- 白噪音误差项的简单或高阶移动平均生成误差项$u_t$
以双变量回归模型来说明检验步骤如下:
令$Y_t=\beta_1 +\beta_2 X_t + u_t$
假定误差项$u_t$服从如下$p$阶自回归AR(p)模式:
则要检验的原假设为:$H_0: \ \rho_1=\rho_2=…=\rho_p=0$
Step1
利用OLS估计得到残差$\hat{u}_t$
Step2
将$\hat{u}_t$对所有解释变量和第一步所估计的残差滞后值$\hat{u}_{t-1}$,$\hat{u}_{t-2}$,…,$\hat{u}_{t-p}$做回归,并从这个辅助回归得到$R^2$
Step3
若样本容量足够大,
若在选定显著性水平下$(n-p)R^2$超过临界值,我们就拒绝$\chi$临界值。
BG检验(也可叫LM检验)的一个缺陷在于,滞后长度p不能先验设定,可以用赤池准则和更有功效的施瓦茨准则来筛选滞后长度。且存在低阶自相关时高阶BG检验不总是拒绝原假设。
补救措施
广义最小二乘
$\rho$已知
利用广义差分方程,变换数据。
$\epsilon_t=u_t-\rho u_{t-1}$满足全部OLS假定,故能够得到BLUE估计量
$\rho$未知
一次差分法 如果(一阶)自相关系数很高,接近于1,那么可以尝试一次差分法。
基于德宾-沃森估计的$\rho$
基于残差估计的$\rho$
基于迭代的$\rho$
注意,作广义差分后的回归元的估计系数跟原模型的估计系数一样,但截距项要除以$1-\hat{\rho}$才能还原到原模型的截距。
Newey-West 修正标准误(HAC)
在大样本下可以用Newey-West 修正标准误。但在小样本下,这种修正的估计量的性质还没有得到很好的证明,还不如用OLS。